Tsunami da impatto:
simulare per capire


 

E' fuori discussione che la causa prima degli tsunami debba essere ricercata soprattutto nei terremoti. Qualche volta ci mettono del loro anche le eruzioni vulcaniche e altri avvenimenti più o meno imprevedibili (vedi l'episodio avvenuto a Lituya Bay nel 1958). A memoria d'uomo, comunque, non si ricorda proprio nessuno tsunami provocato dalla caduta di un oggetto celeste.

Nonostante questo, però, lo tsunami da impatto non può essere considerato completamente estraneo al nostro pianeta, se non altro perchè la maggior parte del globo terrestre è occupata dalle distese marine e questo le rende il bersaglio privilegiato di un potenziale oggetto celeste.
Una seconda considerazione ci viene suggerita dall'estrema pericolosità che un simile avvenimento riveste per la vita umana. Gran parte della popolazione mondiale, infatti, vive in prossimità delle coste e tali insediamenti verrebbero letteralmente spazzati via dalla potenza dell'onda innescata dall'impatto di un oggetto in mare (per un'analisi più accurata si può consultare la pagina Tsunami da impatto).

A differenza di quanto avviene per un impatto sulla terraferma, però, le indicazioni relative agli tsunami da impatto sono quasi inesistenti. Ci sono dati oggettivi che indicano come in passato si siano certamente verificati tsunami di smisurata potenza, ma nulla che possa collegarne l'origine ad un impatto celeste. Siamo ben lontani da quanto avviene per gli impatti sulla terraferma, le cui cicatrici (i crateri) consegnano agli studiosi un'enorme mole di indicazioni sulla natura dell'oggetto celeste, sull'epoca dell'evento e sui parametri fisici che lo hanno caratterizzato.
Se si vuole capire qualcosa di più sul meccanismo dello tsunami da impatto l'unica strada percorribile è quella della simulazione computerizzata.
I primi importanti lavori in questa direzione sono senza dubbio quelli di Jack Hills e Chales Mader (Los Alamos National Laboratory) e di Dave Crawford (Sandia National Laboratories) presentati alla comunità scientifica a metà degli anni '90.
Le simulazioni dell'evento erano effettuate connettendo assieme i risultati di tre differenti programmi: il primo si occupava di simulare l'impatto e la creazione della cavità, il secondo era dedicato a studiare come il collasso dei muri d'acqua innescasse lo tsunami ed il terzo, infine, seguiva il propagarsi dell'onda nell'oceano. Simulazioni efficaci, ma con qualche difetto: la maggiore fonte di errore era proprio il passaggio dei dati da un codice all'altro.

Per eliminare ogni possibile errore dovuto alla cattiva comunicazione dei tre moduli tra loro sarebbe bastato riunire in un unico codice l'intero processo di simulazione: soluzione quasi banale... a parole.
La realizzazione pratica aveva però bisogno di interventi tutt'altro che banali.
Il processo, infatti, avrebbe comportato non solo l'ovvia riscrittura del software, ma la ben più importante revisione dell'hardware per la potenza di calcolo che la nuova simulazione avrebbe richiesto.
A portare a compimento l'intero processo ci ha pensato ancora un team del Los Alamos National Laboratory, utilizzando la potenza di calcolo del supercomputer ASCII Blue Mountain (vedi immagine) e dell'ASCI White Machine del Lawrence Livermore National Laboratory.
Responsabili del progetto erano Galen Gisler e Bob Weaver del Los Alamos Thermonuclear Application Group e Michael Gittings della Science Applications International Corporation.
I loro risultati sono stati presentati nel corso del Meeting dell'American Astronomical Society tenutosi ad Albuquerque il 5 giugno 2002.
La simulazione ha preso in considerazione sei differenti scenari nei quali cambiavano le dimensioni e la composizione del proiettile spaziale. La velocità dell'oggetto non era un parametro variabile, ma era stata fissata in 20 km/s (72 mila km/h). Stessa scelta univoca per la zona-bersaglio: un generico oceano con acque profonde 4500 metri.
Sei dunque le simulazioni effettuate, ciascuna caratterizzata da un differente valore del diametro dell'oggetto (un chilometro, 500 metri e 250 metri) e della sua composizione (metallica e rocciosa).

Galen Gisler, uno dei responsabili informatici delle simulazioni, riassume così i risultati raggiunti: "Notizie buone e cattive allo stesso tempo. Buone perchè dalle simulazioni risulta che l'onda provocata dall'impatto viaggia circa il 25% più lentamente di quanto avevano previsto le precedenti analisi. E questo potrebbe risultare fondamentale per consentire ad un maggior numero di persone di spostarsi verso zone più elevate sfuggendo lo tsunami. La notizia cattiva è purtroppo che l'altezza delle onde risulta raddoppiata rispetto alle precedenti simulazioni."
Per essere più concreti: mentre la velocità dell'onda prevista da precedenti analisi era di circa 800 km/h, nei nuovi calcoli si aggira intorno ai 600 km/h.
Gli stessi calcoli, poi, suggeriscono che l'onda iniziale potrebberaggiungere un'altezza di circa 800 metri, ma questo valore si ridurrebbe di due terzi già a una sessantina di chilometri dal punto dell'impatto.
Per seguire con precisione lo sviluppo dello tsunami dal punto d'impatto fino alla costa più vicina era necessario costruire un modello che descrivesse al meglio le interazioni tra acqua e aria e tra acqua e superficie dell'asteroide. Il modello doveva inoltre essere in grado di seguire l'azione dell'onda d'urto che si diffondeva nell'oceano descrivendo nei dettagli la propagazione delle onde di tsunami a varie distanze dalla loro origine.
La sfida più ardua per il team è stata l'accurata modellazione della propagazione delle onde acustiche all'interno dell'asteroide al momento della sua vaporizzazione. Inizialmente sembrava proprio un ostacolo insormontabile: l'impiego sia dei nuovi programmi che di quelli precedenti forniva infatti risultati fisicamente inaccettabili. Solo un successivo affinamento del codice ha permesso di descrivere accuratamente il moto delle onde scustiche.
L'intera simulazione ha richiesto il calcolo di più di 200 milioni di distinte celle. Un' enorme mole di calcoli che ha tenuto occupati per tre settimane i due supercomputer di Los Alamos e del Lawrence Livermore Laboratory. Se fosse stato utilizzato un singolo processore i calcoli l'avrebbero impegnato per oltre un milione di ore.

L'immagine qui proposta è stata realizzata estraendo 9 fotogrammi significativi dal filmato della simulazione. Cliccando sull'immagine si può accedere ad una versione più grande, mentre il filmato originale (formato QuickTime) è scaricabile dal sito del Los Alamos National Laboratory al link http://www.lanl.gov/worldview/news/tsunami.mov 

 


Home Page Tsunami Page

Tutti i diritti commerciali sui testi resi disponibili online sono riservati.
Il loro download è libero e, di quelli da me prodotti,
ne autorizzo l'uso personale, didattico e di ricerca.
E'   in ogni caso gradita la segnalazione della fonte
ed una comunicazione del loro utilizzo.